約 1,465,281 件
https://w.atwiki.jp/mm3sakusya/pages/39.html
2009-9-30(水) 通信プロトコルの部分を、タイミング図を基にコーディング。ほぼ問題なし。これで通信は繋がった。 A/D部のデバグ。クロックを調整。 AS社のモータのコネクタが届いたのでケーブルを製作してテスト。ちょっと問題発生。でもうちの担当ではないので報告だけ。 S社のY氏来社。センサにケーブルを付ける。コネクタも1セット。 Y社のサーボモータをセットアップ。USB接続になっていたので設定プログラムも新しいバージョンをインストール。 2009-9-29(火) 日曜にコーディングしたFPGAの通信部分のデバグ。プロトコルはSYN同期とフラグ同期を合わせたような感じ。 思った以上にややこしい。やっぱタイミング図を書かなくちゃだめだな。 Y氏来社。ケースと部品を持ってきていただく。 タイミング図をあれこれ。バッファが1段必要だな。 2009-9-28(月) Windowsのメインプログラムをちょこちょこ。USBドライバの変更部分。 AS社のドライバが届いたので昨日作ったテストプログラムのデバグ。ほとんど問題なし。 24日発覚したコネクタ間違い。コネクタだけを再発注していたけど今日届いてみるとまた間違えていたorz。 S社のY氏来社。AS社のモータとY社のモータ&ドライバを持ってきていただいた。しかしAS社のモータはコネクタ違いで繋がらず。手配をお願い。 おお、速いっすね。もう去年のレベルを追い越されてる。 comment 突然ですが、MM3さんなら一輪車少女ロボ「ムラタセイコちゃん」を作るのは簡単ですよねー http //www.murataboy.com/classroom/detail.html -- takekun (2009-09-28 18 51 01) これですよね。前後は普通の倒立振子で左右は出力がフライホイールになった倒立振子。そして方向を変えるのもおそらく水平のフライホイールでしょう。原理的には簡単ですけどパラメータ合わせは結構厄介です。フィルタとか。 -- mm3 (2009-09-28 21 10 52) ホンダのやつも発振したりしてますよね。 -- mm3 (2009-09-28 21 12 01) Youtubeのミニ四駆を見て感動したのですが、一輪車はもっと複雑なのですね・・・なるほど。 見た目以上に難しいものなのですね。 -- takekun (2009-09-30 02 12 36) これは1週間ほど悩んで立ったし、これもすんなり立ったのですが、こちらはまだ立たずにいます。2輪でも物によっては難しいです。 -- mm3 (2009-09-30 05 20 23) なるほど。/3枚目は乗り物でしょうか?乗りたい・・・・ -- takekun (2009-10-02 23 37 03) 乗るつもりですけど、乗るのは自立より難しいですね。 -- mm3 (2009-10-03 21 45 22) 2009-9-27(日) 家でお仕事。 高速化のために今までSH4でやっていた通信処理をFPGAに実装。 AS社のモータ制御のテストプログラム作成。まずWindows上から制御してみる。現物は明日届くので明日からデバグ。 ホンダU3-Xのタイヤ(想像)を絵にしてみる。ちょっと作ってみたいかも。 SH4のプログラムもちょこちょこ。 終日蟄居。 2009-9-26(土) ゆうパックを窓口受け取りにして歩いて取りに行ったら出てきた荷物は10kgオーバーorz。 今年も田舎から葡萄が届いた。 2009-9-25(金) ホンダがU3-X発表。横方向の駆動はどうやってるんだろ?ここにも動画が。ここにも。 プログラムをインストールしたらLobVIEWのランタイムが入って200Mほどに。シリアル通信するだけのプログラムなんですけど(汗。 なるほどドライブギヤの内面に左右違う角度のローラが付いていて、左右のギヤの回転差で小径車輪を回すんだな。うん、よくできてる。下からの撮影は許されなかったって書いてあるけどあの図を出せば原理は想像できる。 滝川クリステルさんがニュースJAPANを降板。視聴率落ちるだろうな。 2009-9-24(木) 基板をちょこっと手直し。 Win側のUSBテストプログラム作成。メーカのサイトからドライバをダウンロードしてDLLからLIB作ってリンクしてちょこっと書いたら動いた。 9日にミスミに発注したケーブルが届いた。コネクタを2箇所も間違えていたorz。疲れていたのか? TH社向けプログラムを改造。パラメータ保存部分とNG出力部分とマスク画像読み出し部分。 マイクロマウス九州地区大会への出場申込み。ホテルも予約。日帰り圏内なんだけど、あまりにもタイトなスケジュールもあれなんで泊まることにした。 2009-9-23(水) 秋分の日 連休最終日。 朝から出社してお仕事。 ロボット学会誌の原稿が届いていたので校正して返送。 含水率計1台の組み立てと出荷検査。リアパネルが無い。 AGVメインボード4枚とセンサボード3枚の修理。 疲れたので午後4時頃に帰宅。 2009-9-22(火) 国民の休日 天気が悪い。 家でお仕事。通信部のデバグ。 シリパラ部が一部おかしい。ロジアナが無いと辛いな。 S社からバグ報告。修正してメールで送信。 シリパラ部は深夜に解決。SH4のリードクロックが多かった。これで基本的な通信部は完成。 終日蟄居。 2009-9-21(月) 敬老の日 家でお仕事。 FPGAにモータ制御部を実装。 通信方法を考える。今回は[ARM]--シリアル--[X社FPGA]--シリアル--[X社FPGA]--BUS--[A社FPGA/SH4]--USB--[PC]と繋がっていて、それぞれ要求される通信速度が違う。最大32Mbps。 FPGAにSYN同期通信を実装。 夕方からサティで買い物。 携帯からJAF継続手続き。 2009-9-20(日) 家でお仕事。FPGA側のA/D変換部。FPGAとARMの通信をするシリパラ部の肉付け。 終日蟄居。 2009-9-19(土) 今日から5連休。 家でお仕事。引き続きARM(STM32)のプログラム。FPGAとの通信をするシリアルパラレルインタフェース部の設定とARM側A/D変換部の設定が終了。 夕食後にレーザ出力PWM部とポテンショメータコントロールI2C部まで。 終日蟄居。 2009-9-18(金) JTAGのデイジーチェーンを切って単独で繋ぐとFPGAもARM(STM32)も書き込めることが分かった。昨日FPGAのTDOが出ていないと思ったのは間違い。 ARMの方は書き込み器のコンフィグファイルで「他にもデバイスが繋がってるよ」と教えてやればデイジーチェーンでも書き込めた。 FPGAの方は書き込みツールに他のデバイスのインストラクションレジスタ長を設定する項目があるのだけど何を設定してもダメ。仕方なくデイジーチェーンを切り替えるスイッチを取り付ける。まあ開発時だけなので良し。 ARMはUSBポートを付けていないのでデバグはJTAG書き込み器に付いているシリアルポートで行う。しかしホストからターゲットへの通信ができない。 調べてみるとJTAG書き込み器のUSB-シリアル変換でCTSがオープンになっている。プルダウンして解決。 ARMのプログラムをシコシコ。サンプルのライブラリが複雑。ポートを設定するだけで一苦労。 とりあえずシリアル通信とシステムクロック出力まで。 一式持ち帰り、明日から引き篭もってプログラム開発の予定。 さっそく家で店開き。オシロも持ち帰ってきた。 2009-9-17(木) USBがホストへの通信で1バイト遅れる件。FIFO読み出しクロックの位相を調整して解決。 Y氏来社。スキャナの部品製作について打ち合わせ。 小さいアンプ基板の火入れ。 2.5V電源が立ち上がらない。散々悩んでレギュレータのENピンが逆論理になっているのを発見。 S社のY氏来社。検査サンプルの件やら打ち合わせ。 引き続きアンプ基板。 FPGAとARMを繋いだJTAGが動かない。FPGAのTDOが出ていない。MDピンの設定を変えても変わらず。 2009-9-16(水) 引き続きFPGA。USB部分。 クリスタルが間違っていたので交換。 同期式でインタフェースしようとしたがPC側のアプリから設定する必要があるらしい。とりあえず非同期で繋ぐ。480Mbpsが80Mbpsになるがまぁ問題なし。 FPGAにFIFOを入れて繋ぐ。とりあえず繋がったがホストへの通信で1バイト遅れる。 2009-9-15(火) A社とX社のFPGAプログラムをしこしこ。 16/16入出力のDIOと3CHのサーボドライバ部分完成 シリアライザ/デシリアライザ部のテスト。32MHzのクロックで試してみる。ループバックは成功。500Mbps出てるんだ。凄いね。 2009-9-14(月) ひたすら実装。 完成。 256ピンBGAのFPGAに書き込めてLEDチカチカが動作するところまで確認。 2009-9-13(日) 姉から頼まれて名古屋のホテルを予約。 映画TAJOMARUは広島ロケと聞いた。PVにうちの田舎の近くの(といっても30kmくらい離れているが)雄橋が映ってる。 終日蟄居。 2009-9-12(土) 雨。 終日蟄居。 2009-9-11(金) 初めてのARM、STM32についてお勉強。そう9/9の写真に写っているのはSTM32F103です。 昼に出かけて呉のS社へ。celeroton社のデモに立会い。割り込みで116000rpmまで回したことがあるのでハードでやって電圧を上げれば1000000rpmはできそうな気がする。それより軸受けに興味があったのだけど聞いてみるとそれなりの軸受けでそれなりの寿命だった。 午後3時過ぎに終了。帰社。 comment 1000000rpmではどこかが音速を超えているような気がします。これといって問題ないのでしょうか。 -- W谷 (2009-09-14 02 26 31) モータが小さい(pdf)です。ロータ径が6mmだと音速以下ですよね。実際見せてもらったのは500000rpmタイプだけでした。 -- mm3 (2009-09-14 12 27 15) 2009-9-10(木) 引き続きアンプ基板実装。 ケースやらコネクタやら発注。 FPGAをごそごそ。とりあえずピン割り当て。今回はBGAもある。割り当てるだけで大変。 3個分の割り当て終了。 2009-9-9(水) 引き続きアンプ基板実装。まだパーツが全部揃っていないのでぼちぼちと。 長尺ネジを探す。 ケーブル2種の設計。ミスミに発注。 あれから7年か。いやCXで同じ匂いを感じたもので。微妙すぎて放送してはいけないレベル。茂木さんてTVに出すぎてネタに困ってるのだろうか? 2009-9-8(火) Y氏来社。スキャナの構造について打ち合わせ。 つくばのホテルを予約。10月に2泊。 ロボトレース計測用の変換コネクタを2セット4個製作。 アンプ基板実装。ますますパーツが小さくなって顕微鏡を導入。 つくばのホテルを追加予約。11月に5泊。奇しくもNさんと同じホテル。 2009-9-7(月) AGV低速前進タイプのプログラム変更。タイヤ径をφ100からφ120へ。 EPROM18個を消して書き込み。 S社長への仕様書を作成。 2009-9-6(日) 終日蟄居。 2009-9-5(土) 車で福山へ。 家族揃って魚好人一休でお祝い。 「うめ」とは二度目まして。 午後に帰宅。 お土産の野菜でポテトサラダを作る。美味しゅうございます。 2009-9-4(金) 引き続きサンプルのデータ取りの準備。アルミ板を加工してセンサを取り付け。チャッキングの治具も製作。 データ取り。まあまあの結果。 マイクロマウスタイマのユニット側プログラム。Oさんのソースを移植。 図面が欲しいとのことでBさんにお願い。 2009-9-3(木) 引き続きサンプルのデータ取りの準備。レーザは付いたけどセンサの取り付けをどうしよう。 マイクロマウスタイマのユニット側プログラム。Nさんのソースを移植。 2009-9-2(水) 照明を使ってTK社のデータ取り。 AGV用センサボード5枚の修理。 S社長から預かったサンプルのデータ取りの準備。 2009-9-1(火) TK社向けの照明を製作。 -
https://w.atwiki.jp/monosepia/pages/10255.html
ATOMIC BOMBSHELL:2015年にロスチャイルドズが特許を取得したCovid-19の生体検査。そして2017年④ https //silview.media/2020/10/04/atomic-bombshell-rothschilds-patented-covid-19-biometric-tests-in-2015-and-2017/ 推奨される実施形態の詳細な説明 本発明は、単独で、または他のデータ(例えば、ビデオデータなど)と一緒に(例えば、同期して)使用し、処理し、インデックスを作成し、ベンチマークを作成し、ランキングを作成し、比較し、およびその結果を表示するためのシステムおよび方法を提供する。本発明は、本明細書において、特定の生体情報データ(例えば、以下のようなもの)に関して記載されているが、理解されるべきである。心拍数、呼吸パターン、血中アルコール濃度など )が、本発明はそれほど限定されるものではなく、酸素レベル、二酸化炭素レベル、酸素飽和度、血圧、血糖値、肺機能、血圧、身体および周囲条件(温度、湿度、光レベル、高度。歩行速度、ランニング速度)、速度(歩行速度、ランニング速度)、移動した場所と距離、呼吸数、心拍変動(HRV)、心電図データ、発汗量、消費カロリーと燃焼カロリー、ケトン体、老廃物排出量と排出量、ホルモンレベル、血液量、唾液量、可聴レベル(例. g., いびきなど)、気分レベルおよび変化、ガルバニック皮膚反応、脳波および/または活動、または他の神経学的測定値、睡眠パターン、身体的特徴(例えば、身長、体重、目の色、髪の色、虹彩データ、指紋など)または反応(例えば、顔の変化、虹彩(または瞳孔)の変化、声(または音色)の変化など)、またはそれらの任意の組み合わせまたは結果。 図1に示すように、バイオメトリックデバイス110は、スマートフォンなどのコンピューティングデバイス108と通信していてもよく、このコンピューティングデバイスは、インターネットなどのワイドエリアネットワーク(「WAN」)100を介して少なくとも1つのコンピューティングデバイス(102、104、106)と通信している。コンピューティングデバイスは、1つまたは異なるオペレーティングシステムまたはプラットフォームを使用して、PC、ラップトップ、タブレット、スマートフォン、スマートウォッチ等のような異なるタイプのものであり得る。本発明の一実施形態では、生体情報デバイス1100は、個人の心拍数(例えば、生体情報データ)を取得(例えば、測定、感知、推定など)するように構成されている。そして、生体情報データは、ビデオおよび/またはオーディオレコーダ(図示せず)を含むコンピューティングデバイス108に提供される。 本発明の第1の実施形態では、ビデオおよび/またはオーディオデータは、心拍数データとともに、ネットワーク100を介してホストコンピューティングデバイス106に提供される。同時のビデオおよび/またはオーディオデータと心拍数データとがホストコンピューティングデバイス106に提供されるので、そこで動作するホストアプリケーション(図示せず)を使用して、ビデオデータ、オーディオデータ、および/または心拍数データを同期させることができ、それにより、ユーザ(例えば、ユーザコンピューティングデバイス102、104を介して)が、生体情報データを見ながら、ビデオデータを見ること、および/またはオーディオデータを聞くこと(リアルタイムまたは時間遅延のいずれか)を可能にすることができる。例えば、図3に示すように、ホストアプリケーションは、タイムスタンプ320、またはメタデータを使用した他のシーケンス方法を使用して、ビデオデータ310を生体情報データ330と同期させて、ユーザが、例えば、特定の時刻340(例えば、開始時刻から76秒後)における個人(例えば、病院内の患者、ベビーベッド内の赤ちゃんなど)と、その特定の時刻340(例えば、開始時刻から76秒後)における個人に関連付けられた生体情報データとを表示することを可能にしてもよい。 ホストアプリケーションは、ビデオデータ、オーディオデータ、生体情報データおよび/またはメタデータにおける特定の活動の検索、および/またはビデオデータ、オーディオデータ、および/または生体情報データのランキングなどの他の機能を実行するようにさらに構成されてもよいことが理解されるべきである。例えば、ホストアプリケーションは、特定の閾値または値を超えた心拍数、特定の閾値または値を下回った心拍数、最小期間の特定の心拍数(または範囲)などの特定の生体測定イベントを検索できるようにしてもよい。別の例として、ホストアプリケーションは、ビデオデータ、オーディオデータ、生体情報データ、または同期化された複数のクリップ(例えば、ハイライトリール)を、生体情報のマグニチュード(最高から最低、最低から最高など)、レビュー(最高から最悪、最悪から最高など)、またはビュー(最多から最低、最低から最多など)によって、時系列的にランク付けしてもよい。データのランキング、検索、および分析のような機能は、ユーザの個々のセッションに限定されるものではなく、ユーザの任意の数の個々のセッション、および複数のユーザのセッションまたはセッションの数にまたがって実行されることができることをさらに理解すべきである。このように様々な情報(映像、生体情報など)を全て収集することで、AIの推論やレコメンデーションを生成する目的のビッグデータ分析や機械学習に十分なデータポイントを生成できるようにすることも用途の一つである。 例として、機械学習アルゴリズムは、その後短い "ハイライトリール "に一緒にステッチされるであろう最も説得力のあるコンテンツを探して、自動的にビデオデータを検索するために使用することができます。ニューラル・ネットワークは、複数のスポーツ・ビデオと、ビデオの進行に伴ってユーザーが興味を持っているレベルの評価を使用して訓練することができます。ネットワークへの入力ノードは、現在のフレームの興奮度の中央値と一緒に、フレーム間のピクセルの強度の変化のサンプルとすることができます。機械学習アルゴリズムは、多層畳み込みニューラルネットワークと組み合わせて、ビデオコンテンツを自動的に分類するために使用することもできます(例えば、ビデオにどのようなスポーツが含まれているかなど)。コンテンツが自動的にまたは手動で識別されると、アルゴリズムは、ユーザの活動を理想化された活動と比較するために使用することができる。例えば、システムは、ユーザーのゴルフスイングのビデオ録画とプロゴルファーのスイングを比較することができます。そして、システムは、ユーザーがどのようにスイングを改善することができるかについて、増分的なヒントをユーザーに提供することができます。アルゴリズムはまた、ユーザのフィットネスレベルを予測し(例えば、ユーザがプログラムを維持した場合、ワークアウトを継続するインセンティブを与える)、ユーザを同じようなフィットネスレベルを持つ他のユーザまたは施術者とマッチングさせ、各ユーザに最適化されたルーチンを作成するために使用することができる。 また、図2Aに示すように、バイオメトリックデータは、コンピューティングデバイス108を経由せずに、ホストコンピューティングデバイス106に直接提供されてもよいことが理解されるべきである。例えば、コンピューティングデバイス108および生体情報デバイス110は、直接またはネットワーク100を介して、ホストコンピューティングデバイスと独立して通信してもよい。ビデオデータ、オーディオデータ、および/または生体情報データは、リアルタイムでホストコンピューティングデバイス106に提供される必要はないことがさらに理解されるべきである。例えば、ビデオデータは、データが識別され得るか、または特定のセッションに結び付けられ得る限り、後の時点で提供され得る。ビデオデータが識別され得る場合、それは、その後、リアルタイムで受信された他のデータ(例えば、生体情報データ)に同期され得る。 本発明の一実施形態では、図2Bに示すように、システムは、WANを介したホストコンピューティングデバイス240(例えば、100での図1を参照)、WANを介したサードパーティデバイス250(例えば、100での図1を参照)、およびローカルデバイス230(例えば、無線接続または有線接続を介して)を含む複数のデバイスと通信しているスマートフォンなどのコンピューティングデバイス200を含む。好ましい実施形態では、コンピューティングデバイス200は、ホストコンピューティングデバイス240(例えば、企業のクラウド)からプログラムまたはアプリケーション(すなわち、クライアントプラットフォーム)をダウンロードする。クライアントプラットフォームは、複数の機能を実行するように構成された複数のモジュールを含む。 例えば、クライアントプラットフォームは、内部および/または外部カメラからビデオデータを受信するためのビデオキャプチャモジュール210と、内部および/または外部の生体認証デバイスから生体認証データを受信するための生体認証キャプチャモジュール212とを含んでもよい。クライアントプラットフォームはまた、ユーザがプラットフォームと対話することを可能にするユーザインタフェースモジュール202、ビデオデータを編集するためのビデオ編集モジュール204、データ(例えば、ビデオデータ、生体情報データ、識別データ、開始時間データ、継続時間データ、サンプルレートデータ、自己実現データ、タイムスタンプデータなど)を管理するためのファイル処理モジュール206、データ(例えば、ビデオデータ、生体情報データ、識別データ、開始時間データ、継続時間データ、サンプルレートデータ、自己実現データ、タイムスタンプデータなど)を複製するためのデータベースおよび同期モジュール214を含んでもよい。コンピューティングデバイス200に保存されたデータをホストコンピューティングデバイス240にコピーする、および/またはホストコンピューティングデバイス240に保存されたユーザデータをコンピューティングデバイス200にコピーする)、受信したデータを処理するためのアルゴリズムモジュール216(例えば、データの同期化、データの検索/フィルタリング、ハイライトリールの作成など)、単一のセッションまたは複数のセッションに関連するデータ(例えば、ビデオデータ、ハイライトリールなど)を共有および/または保存するための共有モジュール220、およびFacebook™などの第三者のソーシャルメディアウェブサイトとインターフェースするための中央ログインおよびIDモジュール218がある。 図2Bに関して、スマートフォン、タブレット、または他のコンピューティング・デバイスであってもよいコンピューティング・デバイス200は、ホスト・コンピューティング・デバイス240からクライアント・プラットフォームをダウンロードするように構成されてもよい。クライアントプラットフォームがコンピューティングデバイス200上で実行されると、プラットフォームは、新しいセッションを開始し、セッションのためのビデオデータを受信し(すなわち、ビデオキャプチャモジュール210を介して)、セッションのための生体情報データを受信し(すなわち、生体情報キャプチャモジュール212を介して)、新しいセッションのための生体情報データを受信するために使用することができる。このデータは、ローカルストレージ、ローカルデータベース、および/またはリモートストレージデバイス(例えば、会社のクラウドまたはサードパーティのクラウド、例えばDropbox™など)に保存され得る。好ましい実施形態では、データは、(i)セッションを識別し、(iii)同期を可能にする情報にリンクされるように格納される。 例えば、ビデオデータは、好ましくは、少なくとも開始時刻(例えば、セッションの開始時刻)と識別子とにリンクされる。識別子は、セッションを一意に識別する単一の番号であってもよいし、複数の番号(例えば、複数のグローバル(または普遍的)一意識別子(GUIDs/UUIDs))であってもよく、第1の番号がセッションを一意に識別し、第2の番号がセッション内のアクティビティを一意に識別し、セッション(例えば、ベルリンのような目的地への旅行または旅程)が複数のアクティビティ(例えば、自転車に乗る、歩くなど)を含むことを可能にする。例示に過ぎないが、アクティビティ(またはセッション)の識別子は、一意性の高い確率を有する128ビットの識別子、例えば、8bf2512-f17a-4e9e-b49a-7c3f59ec1e85)であってもよい。識別子はまた、セッション名および/またはセッションの説明を含んでもよい。ビデオデータに関する他の情報(例えば、ビデオ長、ビデオソースなど)(すなわち、「ビデオメタデータ」)も、ビデオデータに格納され、リンクされていてもよい。好ましくは、生体情報データは、少なくとも開始時刻(例えば、ビデオデータにリンクされた同じ開始時刻)と、識別子(例えば、ビデオデータにリンクされた同じ識別子)と、生体情報データが受信および/または格納される速度を識別するサンプルレートとにリンクされている。例えば、心拍数データは、1分間に30サンプル(30spm)、すなわち2秒に1回、または他のいくつかの所定の時間間隔サンプルのレートで受信され、保存されてもよい。 いくつかの実施形態では、プラットフォームによって使用されるサンプルレートは、生体測定デバイスのサンプルレート(すなわち、生体測定デバイスによってデータが提供されるレート)であってもよい。他のケースでは、プラットフォームによって使用されるサンプルレートは、データが受信されるレートとは独立していてもよい(例えば、固定レート、設定可能なレートなど)。例えば、生体認証デバイスが1分間に60サンプル(60spm)のレートで生体認証データを提供するように構成されている場合、プラットフォームは、依然として30spmのレートでデータを保存してもよい。言い換えれば、30spmのサンプルレートでは、プラットフォームは、10秒後に5つの値を記憶し、第1の値は生体認証デバイスによって送信された第2の値であり、第2の値は生体認証デバイスによって送信された第4の値である、などとなる。代替的に、生体認証デバイスが、生体認証データが変化したときにのみ生体認証データを提供するように構成されている場合、プラットフォームは、30spmの速度でデータを記憶したままであってもよい。この場合、プラットフォームによって記憶される第1の値は、生体情報デバイスによって送信された第1の値であってもよく、記憶される第2の値は、記憶の時点で生体情報デバイスによって新しい値が送信されていない場合には、生体情報デバイスによって送信された第1の値であってもよく、記憶される第3の値は、記憶の時点で生体情報デバイスによって新しい値が送信されている場合には、生体情報デバイスによって送信された第2の値であってもよい。 映像データと生体データとが記憶されて連携した後は、アルゴリズムを用いてデータを一緒に表示するようにしてもよい。例えば、生体情報データが固定または構成可能な30spmのサンプルレートで保存されている場合、アルゴリズム(例えば、216)は、ビデオクリップの開始時に第1の生体情報値(例えば、ビデオデータの下、ビデオデータの上に重畳されているなど)を表示し、2秒後に第2の生体情報値(ビデオクリップの2秒後)を表示し、2秒後に第3の生体情報値(ビデオクリップの4秒後)を表示するために使用することができる。本発明の代替実施形態では、非ビデオデータ(例えば、生体情報データ、自己実現データなど)は、複数のタイムスタンプ(例えば、格納された各値に対する個々のスタンプまたはオフセット)とともに格納することができ、これは、非ビデオデータをビデオデータに同期させるために開始時刻とともに使用することができる。 クライアントプラットフォームは、自律的に(すなわち、ホストネットワークデバイス240から独立して)機能するように構成され得るが、本発明の一実施形態では、クライアントプラットフォームの特定の機能は、ホストネットワークデバイス240によって実行され、コンピューティングデバイス200がホストコンピューティングデバイス240と通信しているときにのみ実行され得ることが理解されるべきである。このような実施形態は、特定の機能をホストコンピューティングデバイス240にオフロードするだけでなく、これらの機能がホストコンピューティングデバイス240によってのみ実行可能であることを保証するという点で有利である(例えば、特定の機能を実行するためにユーザがクラウドサービスに加入することを要求すること)。クラウドにオフロードされる機能は、ビデオデータと共に非ビデオデータを表示するために必要な機能(例えば、ビデオデータへの情報のリンク、非ビデオデータへの情報のリンク、非ビデオデータをビデオデータに同期させることなど)を含んでもよいし、"ハイライトリール "を生成および/または共有するなどのより高度な機能を含んでもよい。代替の実施形態では、コンピューティングデバイス200は、特定の基準が満たされている限り、前述の機能を実行するように構成されている。この基準は、コンピューティングデバイス200がホストコンピューティングデバイス240と通信中であること、またはコンピューティングデバイス200が以前にホストコンピューティングデバイス240と通信中であること、および最後の通信からの時間の期間が所定の時間と等しいか、またはそれ以下であることを含むことができる。当業者に知られた技術(例えば、鍵付きハッシュベース方式認証コード(HMAC)を使用すること、前記最後の通信の記憶された時間(前記コンピューティングデバイスが、前記デルタが所定の時間未満であるかどうかを判断することを可能にする)など)は、特定の機能の実行を許可する前に、この基準が満たされていることを確実にするために使用することができる。 例示的なコンピューティング装置および例示的な生体認証装置のブロック図が、図5に示されている。特に、例示的な生体認証デバイス500は、生体認証データを感知するためのセンサと、ユーザとインタフェイスし、様々な情報(例えば、生体認証データ、設定データ、開始、停止、一時停止などの操作データ)を表示するためのディスプレイと、感知された生体認証データを記憶するためのメモリと、例示的なコンピューティングデバイス600と通信するためのトランシーバと、トランシーバ、メモリ、センサ、ディスプレイを操作および/または駆動するためのプロセッサとを含む。模範的なコンピューティングデバイス600は、模範的なバイオメトリックデバイス500からバイオメトリックデータを受信するためのトランシーバ(1)を含む(例えば、以下のいずれかを使用する。テレメトリ、任意のWiFi規格、DNLA、Apple AirPlay、Bluetooth、近距離無線通信(NFC)、RFID、ZigBee、Z-Wave、Thread、Cellular、有線接続、赤外線またはデータ伝送の他の方法、データキャスティングまたはストリーミングなどのいずれかを使用して)、生体情報データを記憶するためのメモリ、ユーザとのインターフェースおよび様々な情報を表示するためのディスプレイ(例えば バイオメトリクスデータ、セットアップデータ、開始、停止、一時停止などの操作データ、セッション内コメントの入力や音声メモの追加など)、ユーザー入力データを受信するためのキーボード、インターネットを介してホストコンピューティングデバイスにバイオメトリクスデータを提供するためのトランシーバ(2)、(例えば、テレメトリ、データキャスティング、ストリーミングなどのいずれかを使用して)バイオメトリクスデータをホストコンピューティングデバイスに提供するためのトランシーバ(2)。テレメトリ、任意のWiFi規格、DNLA、Apple AirPlay、Bluetooth、近距離無線通信(NFC)、RFID、ZigBee、Z-Wave、Thread、Cellular、有線接続、赤外線またはデータ伝送の他の方法、データキャスティングまたはストリーミングなどのいずれかを使用して)、およびトランシーバ(1)、トランシーバ(2)、キーボード、ディスプレイ、およびメモリを操作および/または駆動するためのプロセッサのいずれかを使用する。 コンピューティングデバイス600内のキーボード、または代替的に生体測定デバイス500内のキーボードは、自己実現データ、または特定の時間にユーザがどのように感じているかに関するデータを入力するために使用されてもよい。例えば、ユーザが疲れを感じている場合、ユーザはキーボードの「T」ボタンを押してもよい。ユーザーがエンドルフィンのキックインを感じている場合、ユーザーはキーボードの「E」ボタンを押すことができます。そして、ユーザーが第二の風を得ている場合、ユーザーはキーボードの「S」ボタンを押すことができます。そして、このデータは記憶され、サンプルレート(生体情報データのようなもの)またはタイムスタンプデータのいずれかにリンクされ、これは各ボタンが押された開始時刻に対する時間またはオフセットであってもよい。これにより、生体情報データと同様に、自己実現データをビデオデータに同期させることができるようになります。また、生体情報データと同様に、自己実現データを検索またはフィルタリングすることも可能になるであろう(例えば、ユーザが疲れを感じ始めたときなど、特定のイベントに対応する動画を見つけるために)。 本発明は、図5に示すブロック図に限定されるものではなく、より少ないまたはより多くの構成要素を含む生体測定装置および/またはコンピューティング装置が、本発明の精神および範囲内にあることが理解されるべきである。例えば、ディスプレイを含まない、またはカメラおよび/またはマイクを含む生体情報デバイスは、タッチスクリーン、デジタルペン、音声/音声認識デバイス、ジェスチャー認識デバイス、いわゆる「ウェアラブル」、または当技術分野の当業者には一般的に知られている任意の他の認識デバイスのような、キーボードを超えた他のデータ入力デバイスまたは方法と同様に、本発明の精神および範囲内にある。同様に、1つのトランシーバのみを含むコンピューティングデバイス、カメラ(ビデオをキャプチャするための)および/またはマイク(音声をキャプチャするため、または音とそれがどのように移動するかを記録または測定することによって空間分析を実行するための)をさらに含むコンピューティングデバイス、またはセンサ(図4参照)をさらに含むコンピューティングデバイスは、本発明の精神および範囲内である。また、自己実現データは、ユーザがどのように感じるかに限定されるものではなく、ユーザまたはアプリケーションが記憶に残すことを望むイベントを含むこともできることを理解すべきである。例えば、ユーザは、野生動物や特定の建築物を自転車で通り過ぎたユーザを記録(またはタイムスタンプ)したいと思うかもしれないし、アプリケーションは、患者が「看護師要請」ボタンを押したことを記録(またはタイムスタンプ)したいと思うかもしれないし、ユーザの他の感知された非生体活動を記録(またはタイムスタンプ)したいと思うかもしれない。 図1に戻って、図2Bと関連して上述したように、ホストアプリケーション(またはクライアントプラットフォーム)は、コンピューティングデバイス108上で動作してもよい。この実施形態では、コンピューティングデバイス108(例えば、スマートフォン)は、生体認証デバイス110から生体認証データを(リアルタイムで、または後の段階で、生体認証データの発生に対応するタイムスタンプを用いて)受信し、生体認証データをコンピューティングデバイス108(またはそこで動作するカメラおよび/またはマイク)によって記録されたビデオデータおよび/またはオーディオデータと同期させるように構成されていてもよい。本発明のこの実施形態では、ホストアプリケーションがローカルに(例えば、コンピューティングデバイス108上で)実行される以外に、ホストアプリケーション(またはクライアントプラットフォーム)は、以前に議論されたように動作することが理解されるべきである。 再び図1を参照して、本発明の別の実施形態では、コンピューティングデバイス108は、生体情報データを感知するためのセンサをさらに含む。本発明のこの実施形態では、ホストアプリケーション(またはクライアントプラットフォーム)は、先に論じたように(コンピューティングデバイス108上でローカルに)動作し、少なくともビデオ、オーディオ、および/または生体情報データを同期化し、同期化されたデータをユーザに再生または提示できるように機能する(例えば、ディスプレイ部分を介して、コンピューティングデバイスに直接接続されたディスプレイデバイスを介して、コンピューティングデバイスに接続されたユーザコンピューティングデバイスを介して(例えば、直接、ネットワークを介して)、など)。 本発明は、いかなる実施形態においても、図1および図2に示されるコンピューティングデバイス(数またはタイプ)に限定されないことが理解されるべきであり、任意のコンピューティングデバイスを含み得ることが理解されるべきである。1および2に示されたコンピューティングデバイス、センシングデバイス、デジタル記録デバイス、GPSまたは他の方法で位置情報を取得可能なデバイス(例えば、WiFi測位システム「WPS」を使用して、またはネットワーク三角測量を介してなどの地理的位置を導出する他の形態)のいずれかを含み、パーソナルコンピュータ、サーバ、ラップトップ、タブレット、スマートフォン、携帯電話、スマートウォッチ、アクティビティバンド、心拍数ストラップ、マットレスセンサ、靴底センサ、デジタルカメラ、近距離センサまたはセンシングデバイスなど、当技術に熟練した者に一般的に知られているものであってもよい。また、本発明は、任意の特定の生体測定デバイスに限定されず、手首(例えば、腕時計のようなもの)に装着されるか、皮膚(例えば、皮膚パッチのようなもの)または頭皮に装着されるか、またはコンピューティングデバイス(例えば、スマートフォンなど)に組み込まれるように構成された生体測定デバイスを含むことを理解すべきである。寝具、衣類、履物、ヘルメットや帽子、イヤホンなどのウェアラブルデバイス、ラケット、ゴルフクラブ、自転車などの運動器具などのアイテムに組み込まれているか、またはアイテムに追加されているかのいずれかであり、ラケットやクラブのヘッドスピード、ペダルの回転数/秒などの身体性能測定基準、またはインパクトゾーン、歩行またはせん断などの履物の記録を含む他の種類のデータも、生体測定基準と同期して測定することができ、ビデオに同期して測定することができます。他のデータもまた、ビデオデータと同期して測定することができ、動物のバイオメトリクス(例えば、雄牛の乗馬イベントにおける雄牛の加速度またはピボットまたは降圧、競馬レースにおける心拍数にマッチした馬の加速度など)、および無生物の身体性能メトリクス、例えば回転数/分(例えば、自動車などの乗り物における回転数/分。例えば、自動車、オートバイなどの車両内)、マイル/時(またはそのようなもの)(例えば、自動車、オートバイなどの車両内、自転車など)、またはGフォース(例えば、ユーザ、動物、および無生物の物体などによって経験される)などの無生物の物体の物理的性能の指標。このデータ(総称して「非ビデオデータ」、これはメタデータ、または非ビデオデータ上のデータを含み得る)のすべては、上述したように、サンプルレートおよび/または少なくとも1つのタイムスタンプを使用して、ビデオデータに同期化され得る。 本発明は、インターネットなどのネットワークと連動して動作する必要がないことをさらに理解すべきである。例えば、図2Aに示すように、生体情報デバイス110は、例えば、心拍数を感知するための無線活動バンドであってもよく、コンピューティングデバイス108は、例えば、デジタルビデオレコーダであってもよく、ホストアプリケーション(図示せず)を実行しているホストコンピューティングデバイス106に直接接続されてもよく、ここで、ホストアプリケーションは、前に議論したように機能する。この実施形態では、ビデオ、オーディオ、および/または生体情報データは、データがサンプルレートおよび/またはタイムスタンプと同期しているので、(i)リアルタイムで、または(iii)後の時点で、ホストアプリケーションに提供することができる。これにより、例えば、少なくともアスリート、またはスポーツマンまたは女性(例えば、サッカー選手、サッカー選手、レーシングドライバーなど)のビデオを、行動中のアスリートの生体情報データと共に、行動中のアスリートの行動(例えば、サッカーをしている、サッカーをしている、モーターレースをしている、など)を示すことができるようになる(例えば、図7参照)。例示に過ぎないが、これにより、ユーザは、サッカープレーヤがボールをドリブルしたり、ボールを蹴ったり、ボールをヘディングしたりする際に、サッカープレーヤの心拍数730を見ることができるようになるであろう。これは、タイムスタンプ720(例えば、開始時刻など)、またはメタデータ(例えば、サンプルレートなど)を使用した他のシーケンス方法を使用して、ビデオデータ710を生体情報データ730と同期させ、ユーザが特定の時刻740(例えば、76秒)でのサッカー選手と、その特定の時刻340(例えば、76秒)での選手に関連付けられた生体情報を表示することを可能にすることによって達成され得る。同様の技術は、他のアスリート、カードプレーヤー、俳優、オンラインガーナーなどの生体情報を表示するために使用することができる。 カメラビューから複数の個人を監視または観察することが望ましい場合、例えば、遠隔の看護ステーションから観察される病棟の患者、またはフットボールの試合のようなスポーツイベントのテレビ放送中に、スポーツフィールド上に複数の選手がいる場合、システムは、被験者が、実用的な距離にわたって生体測定データを送信することが可能なブルートゥースまたは他のウェアラブルまたはNFCセンサ(場合によっては、それらのセンシング能力も、追跡する特定の個人を識別するために位置情報を有効にする)を使用して、そのように構成することが可能である。必要に応じてリレーまたはビーコンと連動して、視聴者は、ビデオまたは放送と並行して、1つまたは複数の個人の生体情報データのいずれを追跡するかの選択を切り替えることができ、また、必要に応じて、可能な場合には、使用されるカメラのビデオキャプチャフィールドの制限内で、ビデオカメラの視野を縮小されたグループまたは特定の個人に集中させることができるようにすることができる。本発明の代替実施形態では、生体情報データの選択は、例えば、ビデオフレーム内の個人の位置(例えば、フレームの中心)、移動速度(例えば、他の個人よりも速く移動する)、またはセンサへの近接度(例えば、個人によって着用されている、個人によって運ばれているボールに埋め込まれている、など)に基づいて、自動的に達成され、これは、遠隔無線周波数信号によって以前に活性化されているか、または活性化されていてもよい。センサの活性化は、個人の生体情報データが受信機に送信される結果となってもよいし、受信機は、送信される他のデータ(例えば、他の個人からの生体情報データ)の中から個人の生体情報データを識別することを可能にしてもよい。 フィットネスまたはスポーツトラッキングの文脈では、個人の活動をビデオでキャプチャすることは、これを行う第三者の存在に依存しないことが理解されるべきであるが、自己ビデオ撮影の様々な方法が想定され得る、例えば、対象者の手首またはボディハーネスに取り付けられたビデオキャプチャ装置、または自撮りアタッチメントまたはジンバルに取り付けられたビデオキャプチャ装置、または対象物(例えば。例えば、自転車のハンドルバーなどのスポーツ機器、バスケットボールやテニスのネット、サッカーのゴールポスト、天井などのスポーツ環境で見られる物体、個人を追跡するドローン搭載カメラ、三脚など)に固定されたものなどである。) そのようなビデオキャプチャ装置は、個人の活動をビデオ化するだけでなく、同時に、個人が目の前で見ているもの、または見ているもの(すなわち、ユーザの周囲)などの別のビューをビデオ化することができるように、1つ以上のカメラレンズを含むことができることにさらに留意すべきである。ビデオキャプチャ装置はまた、凸型ミラーレンズを備えていてもよいし、レンズの前面にアタッチメントとして凸型ミラーを追加してもよいし、完全な360度カメラであってもよいし、複数の360カメラを連結してもよく、そのような場合には、当技術分野で知られている特殊なソフトウェアの使用の有無にかかわらず、360度の全方位ビューまたはサラウンドビューが生成されてもよいし、全軸の360全球ビューが生成されてもよい。 拡張現実または仮想現実の文脈では、個人が適切に装備された拡張現実(「AR」)または仮想現実(「VR」)眼鏡、ゴーグル、ヘッドセットを着用しているか、またはAR、VR、または他の合成されたまたは実際の3D画像をレンダリングすることが可能な別のタイプのビューイングディスプレイを装備している。センサーからの心拍数などの生体情報データと、運動や速度を測定できる加速度センサーなどの適切に装備されたセンサーからの、例えばワークアウトの走りや速度などの他のデータが、個人の視野に重畳されて、個人によって見ることができます。さらに、運動中の個人のアバターを個人の視野の前に重ね合わせて、運動パフォーマンスをモニターしたり、改善したりすることができ、また、運動パフォーマンス(例えば、生体情報データなど)と一緒に(例えば、同期して)自分自身または自分自身のアバターを見ることで、活動の経験を高めることができるようにすることができます。オプションとして、自分のアバターや競合するアバターの生体情報を同時に表示することもできます。さらに(または代替的に)、少なくとも1つの追加のトレーニングアバターまたは競合アバターを個人の視野に重畳表示することができ、これは、競合アバター(複数可)を個人に関連して表示することができる(例えば、以下のようなものである。例えば、個人の前に重畳して表示すること、ユーザの横に重畳して表示すること、個人の後ろに表示すること(例えば、ディスプレイのバックミラー部分など)、および/または個人に関連して表示すること(例えば、ディスプレイのレーダースクリーン部分のブリップスとして表示することなど)など。競合するアバター(複数可)は、友人またはトレーニングの知人のような実在の人物のいずれかであり、ユーザのパフォーマンスを改善または修正するように動機付け、および/または運動ルーチンをより面白くするために使用することができる(例えば、個人が運動またはトレーニング中に、AR、VR、または複合現実(「MR」)環境で「競合」することを可能にすることによって、または、歴史的な場所のような仮想の目的地または場所を、コンピュータモデリングによってスキャンまたは合成的に作成されたような想像上または実在のものを視覚化することによって、仮想的に「ゲーミフィケーション」することによって)。 さらに、追跡され記録されている活動に従事している間にユーザーが露出しているマルチメディア・ソースは、同様に、個人のバイオメトリクス応答の分析および/または相関関係のために、タイムスタンプとともに記録することができるべきである。これを応用した例としては、トレーニング活動を行っているときに特定の音楽トラックを選択することができます。 個人はさらに、パーソナライズされた選択アルゴリズムに基づいて、特定のトラックや音楽の種類を、その人の地理的な位置に基づいて再生することを希望することを指定することができます。あるいは、特定のトラックを聴いていたときの自己実現入力と連動して、過去の生体反応を記録または相関させることによって、トラックまたは音楽の種類を選択することもできる。 生体情報データは、身体運動またはスポーツ活動にリンクされる必要はなく、代わりに、例えば、図3に示すように、健康上の理由または病状、例えば、自宅または病院での健康上の理由、または補助生活環境での高齢者、または別の部屋または場所にいる間に両親によって監視されている睡眠中の乳児など、固定された場所(例えば、個人が遠隔で監視されている場所、またはその後のレビューのために記録されている場所)での個人のビデオと組み合わせてもよいことが理解されるべきである。 あるいは、個人は、公園やショッピングモールの前を通り過ぎたり、その近くを車で走行しているかもしれません。インターネット上、スマート/有効なテレビ、またはスクリーンを組み込んだ他のネットワークデバイス上で、個人(例えば、特定の広告、映画の予告編、出会い系プロフィールなど)が閲覧または対話し、その情報またはコンテンツとの対話が、生体情報データと一緒にビデオで閲覧または記録され、これらのすべてのデータソースは、これらの個々のソースのそれぞれがタイムスタンプなど(例えば、サンプリングなど)されていることにより、レビューのために同期化することが可能である。これにより、第三者(例えば。サービスプロバイダ、広告主、広告のプロバイダ、映画制作会社/プロモーター、出会い系プロフィールのポスター、出会い系サイトなど)が、その応答の分析のために、視聴者による特定のデータの視聴に関連した生体情報データを取得することができ、ここでは、視聴者またはそのプロフィールのいずれかが、第三者のシステムによって任意に識別可能であるか、または視聴者の対話デバイスのアイデンティティのみが知られているか、または生体情報送信者のGPSまたはその他の方法で位置情報を有効にするデバイスから取得することができる。 例えば、広告主または広告提供者は、人々が広告にどのように反応しているかを見ることができ、映画製作会社/プロモーターは、人々が映画の予告編にどのように反応しているかを評価することができ、出会い系プロフィールのポスターまたは出会い系サイト自体は、人々が出会い系プロフィールにどのように反応しているかを見ることができる。また、twitch.tvのようなオンラインゲームやeSports放送サービスのオンラインプレイヤーの視聴者や、テレビ放送やストリーム配信されたオンラインポーカーゲームの視聴者は、参加者の目に見える反応やパフォーマンスだけでなく、主要なビデオソースと同時にアクティブな参加者の生体データを見ることができます。ビデオ/オーディオと同様に、これは、リアルタイムで同期化されるか、または埋め込まれたタイムスタンプなど(例えば、サンプルレートなど)を使用して後で同期化され得る。さらに、顔の表情分析がソースビデオから生成されている場合、例えば、広告メッセージに対する個人の反応を測定する文脈では、ビデオは既にタイムスタンプ(例えば、開始時刻と共に)されているので、顔の表情データは、同様にタイムスタンプおよび/またはサンプリングされている個人の物理的な生体情報データと同期し、相関させることができる。 前述したように、ホストアプリケーションは、複数の機能を実行するように構成されてもよい。例えば、ホストアプリケーションは、ビデオおよび/またはオーディオデータを生体情報データと同期させるように構成されてもよい。これにより、例えば、スポーツイベント(例えば、テレビ、コンピュータスクリーンなど)を見ている個人が、スポーツイベントのプレー中に各選手の生体情報データがどのように変化するかを見ることができ、また、それらの生体情報データの変化を他の選手または他の比較モデルにマッピングすることができるようになる。同様に、医師、看護師、または医療技術者は、その人の睡眠習慣を記録し、その人の生体情報データを監視しながら、その記録を(例えば、テレビ、コンピュータ・スクリーンなどで)見たり、検索したり、または後で確認したりすることができる。システムはまた、機械学習を使用して各患者のプロファイルを構築し、患者の特定の特性(例えば、心拍リズム、呼吸パターンなど)を識別し、測定された特性が異常または不規則に見える場合に、医師、看護師、または医療技術者に通知したり、アラームをトリガーしたりすることができる。 また、ホストアプリケーションは、インターネットなどのネットワークを介して、生体情報データをリモートユーザに提供するように構成され得る。例えば、生体測定デバイス(例えば、血中アルコールセンサを備えたスマートフォン)は、人の血中アルコールレベルを測定し(例えば、人がスマートフォンを介してリモートユーザと話している間)、人の血中アルコールレベルをリモートユーザに提供するために使用され得る。センサを近くに配置するか、マイクに組み込むことにより、そのようなシステムは、親が子供との電話またはビデオ通話に参加することにより、子供がアルコールを飲んだかどうかを判断することを可能にするであろう。当技術分野で知られている異なるセンサを使用して、人の呼気中の異なる化学物質を感知したり、音や速度の変化を分析して人の呼吸パターンを検出したりすることができ、監視側は、対象者がアルコールや他の規制物質を使用しているかどうかを判断したり、他の診断理由のために呼気分析を行ったりすることができます。 システムはまた、例えば血液サンプルの遠隔検査のために、スマートフォンが分析のために検査機関にサンプルを収集して送るために使用されるか、または装置自体の中でサンプルの収集と分析を行うために使用される、いわゆる「ラボ・オン・ア・チップ」(LOC)を装置自体に内蔵するか、または装置に適切なアタッチメントを追加して適合させることもできます。いずれの場合も、システムは、サンプルの収集および/または提出の時点で、タイムスタンプ付きビデオとサンプルの時間および/または位置(またはGPS)スタンプの同時記録を介して、サンプルおよび分析の完全性と患者の身元の確実性の目的のために、被験者とその血液サンプルの身元が相互認証されるように適合されています。この身元の確認は、遠隔医療の文脈では、規制、記録保持、健康保険上の理由から特に重要です。なぜなら、個人は、これまでは、中央の分析施設にアップロードするため、または装置自体のリモート分析のために、対象者がネットワーク化された装置を使用するのではなく、資格を持ち、規制された医療または研究室のスタッフによって、関連施設の現場で通常行われていた機能を、ますます実行するようになるからです。 これ、または心拍数や血圧などの他の生体データの収集は、飛行機のパイロット、トラックや電車の運転手が、車両や血管を制御できる状態にあるかどうか、または例えば突然の機能不全や心臓発作などを経験しているかどうかを、リアルタイムで定期的に遠隔ビデオ監視を介して確認することが安全上の理由から重要な状況に適用することができます。タイムスタンプ、ジオスタンプ、サンプリングされた生体認証データを提供すると同時に、監視対象者がビデオ撮影されるため、監視対象者や第三者がシステムを「だましたり」「なりすましたり」「迂回したり」する可能性が低くなります。患者/医師の遠隔診察の設定では、システムは安全なビデオ診察のために使用され、規制や健康保険の観点から、診察とその発生は、時間および/またはジオスタンプの検証を通じて検証されます。さらに、より高いレベルの認証が必要な場合には、システムをさらに適応させて、正しい人物が監視されていることを確認するために、顔認識またはバイオメトリックアルゴリズムを使用したり、行動パターンの評価に顔の表情分析を使用したりすることができます。 監視されている当事者が恒久的に監視されることを望まないという懸念(例えば、高齢者が、彼らのあらゆる動きおよび行動が継続的にビデオ化されることを望まない)は、様々な追加機能を組み込むことによって緩和され得る。一実施形態では、ビデオは、予約されたメモリ空間を使用するループシステムで永続的に記録され、所定の時間期間記録され、その後、自動的にビデオを消去し、ここで、nは、ループ内の選択された分を表し、Eは、記録されたn分のループが消去されることを防止するイベントであり、監視当事者がEに至るまでの物理的症状をレビューすることができるようにするために、監視当事者への監視された人の可視状態または行動のリアルタイム送信の両方をトリガするだけでなく、巻き戻す能力を有する。Eのトリガーメカニズムは、例えば、定義された範囲外の生体データの発生、または、高齢者が身につけている健康バンド装置内のジャイロスコープ、加速度計、または地磁気計のような動きまたは位置センサーによって作動される落下警告のような別の異常の通知である可能性があります、例えば、高齢者が身につけている健康バンド装置、または、その近くにある携帯電話または他のネットワーク化された動き感知装置上のジャイロスコープ、加速度計、または地磁気計のような動きまたは位置センサーによって作動されます。監視者は、関連する生体情報データの同時読み出しを得ながら、E後の監視者の物理的状態を見ることができるだけでなく、イベントトリガー通知に至るまでのイベントおよび生体情報データをすぐに見直すことができるだろう。このシステムの利点には、個人のプライバシーが尊重され、重要なイベントとその前の時間だけが第三者に公開されるため、必要な伝送帯域幅とデータストレージ要件の両方を最適化できることが含まれます。前述のシステムはまた、遠隔の高齢者、乳児、または患者モニタリングのためのE通知が、顔の追跡および/または表情認識機能を含むようにさらに適合されるように構成され得ることが理解されるべきである。 ユーザのビデオデータおよび生体情報データが、自分自身、自分自身のデバイス上、または自分自身の外部、または自分自身の安全な第三者の「クラウド」ストレージ上に保存される場合、プライバシーはさらに改善され得るが、ソース材料のインデックスメタデータが、ソースデータの順序付け、外挿、検索、およびソースデータの一般的な処理を可能にし、例えば医療記録の場合には、医院または他の医療施設のような中央サーバに残っている場合には、ユーザのために改善され得る。このようなシステムであれば、被監視者は診察時に映像等のデータにアクセスできるが、映像等は被監視者が保有したままである。利用者のプライバシーやデータの安全性を高めるだけでなく、映像や生体情報のソースデータの保存のホストとデータの処理を分離することのさらなる利点は、対象者と一緒にローカルに保存することで、計算サーバにアップロードする必要がないため、コストの削減とストレージやデータ帯域幅の効率化の両方を実現できることである。これは、対象者とは異なる場所にいる資格のある医療スタッフによるレビューのための検査のリモートアップロードのような種類が、低帯域幅のネットワークカバレッジの領域で発生している場合にも有益であろう。前述したように、正しいタイムスタンプを確認するためのサンプリングレートと一致していることを条件に、ビデオ素材のフレームレートを下げることも選択できます。 情報が中央サーバ(またはホスト装置)に格納されている場合、情報を保護し、不正な個人またはエンティティが情報にアクセスすることを防止するために、当技術分野で知られている様々な技術を実装することができることが理解されるべきである。このように、例えば、ユーザは、ユーザ名、パスワード、および/または他の識別(または認証)情報(例えば、ユーザ・バイオメトリクス、キー・フォブなど)を提供され(または作成を許可され)、ホスト・デバイスは、識別(または認証)情報を使用して情報(またはその一部)へのアクセスを許可するように構成されていてもよい。同様のセキュリティ手順を、医療提供者、保険会社などの第三者に対しても実施することができ、情報が許可された個人または団体によってのみアクセス可能であることを確実にすることができる。特定の実施形態では、認証は、保存されたデータのすべてへのアクセスを許可してもよいし、保存されたデータの一部のみへのアクセスを許可してもよい(例えば、ユーザ認証は、保存されたビデオおよび/または生体認証データと同様に個人情報へのアクセスを許可してもよいが、第三者認証は、保存されたビデオおよび/または生体認証データへのアクセスのみを許可してもよい)。他の実施形態では、認証は、ホストデバイス、またはウェブサイトにログインしている個人またはエンティティがどのようなサービスを利用できるかを決定するために使用される。例えば、ウェブサイトへの訪問者(または非加入者)は、ビデオ/オーディオデータを生体情報データに同期させ、および/または初歩的な検索または他の処理を実行できるだけであってもよく、一方、加入者は、ビデオ/オーディオデータを生体情報データに同期させ、および/またはより詳細な検索または他の処理(例えば、ハイライトリールを作成するなど)を実行できるだけであってもよい。 ストレージおよびデータアップロード効率の利益のために、インデックスメタデータだけを中央サーバに保持すること、および異なるデータタイプの相互運用性のための共通プラットフォームを提供すること、およびユーザ自身のデバイス(例えば、iCloud™、DropBox™、OneDrive™など)にビデオおよび/またはオーディオデータを格納することに利点がある一方で、本発明はそれほど限定されないことがさらに理解されるべきである。したがって、特定の実施形態では、実行可能な場合には、(1)データ(例えば、ビデオ、オーディオ、生体情報データ、およびメタデータ)をユーザのデバイス上に格納すること(例えば、ユーザデバイスがホストデバイスから独立して動作することを可能にすること)、(2)データ(例えば、ビデオ、オーディオ、生体情報データ、およびメタデータ)をユーザ自身のデバイス上に格納することが有益であるかもしれない。ビデオ、オーディオ、生体データ、およびメタデータ)を中央サーバ(例えば、ホストデバイス)に格納する(例えば、ユーザが任意のネットワーク対応デバイスからデータにアクセスすることを可能にする)、または(3)第1の部分(例えば、ビデオおよびオーディオデータ)をユーザのデバイスに格納し、第2の部分(例えば、生体データおよびメタデータ)をユーザのデバイスに格納する(例えば、ユーザのデバイスがホストデバイスから独立して動作することを可能にする)。バイオメトリックデータおよびメタデータ)を中央サーバ(例えば、ホストデバイス)上に保存し(例えば、ユーザデバイスがホストデバイスと通信しているときに、ユーザが同期されたビデオ/オーディオ/バイオメトリックデータのみを表示することを可能にし、ユーザがバイオメトリックデータのみを検索することを可能にする(例えば、「ハイライトリール」を作成するために、ユーザデバイスがホストデバイスと通信しているときに、ユーザが同期されたビデオ/オーディオ/バイオメトリックデータのみを表示することを可能にする。ハイライトリール」を作成するために)または生体情報データのランク付け(ユーザデバイスがホストデバイスと通信しているときに、時系列的に、マグニチュード(最高から最低まで)、マグニチュード(最低から最高まで)、ベストレビュー、ワーストレビュー、最も閲覧されたもの、最も閲覧されたもの、最も閲覧されなかったものなど、データを特定および/またはリストアップするために)を行うことができる。 続き ATOMIC BOMBSHELL:2015年にロスチャイルドズが特許を取得したCovid-19の生体検査。そして2017年⑥ .
https://w.atwiki.jp/novo/pages/103.html
モデル名 ONDA Vi40 Dual Core昂达 Vi40双核版 CPU ARM Cortex-A9Amlogic8726-M6 1.5GHz GPU Mali-400 MP2 OS Android 4.0.3 (ICS) RAM 1GB, DDR3 NAND 8GB/16GB/32GB シェル素材 - 液晶 9.7インチ 1024x768IPSパネル静電式最大5点マルチタッチ 3G - Bluetooth - GPS - カメラ 前面200万画素 センサ 三次元加速センサー スピーカー/マイク モノラルスピーカーシングルマイク Video 1080P Wifi 802.11 b/g/n バッテリ 6000mAh サイズ 244 x 191 x 9.8mm 重量 600g 外部端子 MiniUSB x1MiniHDMI x13.5mmイヤフォン x1microSDスロットx1 ユーザーレビュー 選択肢 投票数 投票 ★★★★★ 9 ★★★★☆ 1 ★★★☆☆ 0 ★★☆☆☆ 0 ★☆☆☆☆ 0 紹介 ファームウェア公式ファームウェアVi40双核版_v1.0-0627528 Vi40双核版_v1.0-0627528 外部リンク中国語サイト コメント 紹介 簡単な端末紹介。 公式製品紹介 http //onda.cn/Tablet/ProductInfo.aspx?ProductId=207 SlateDroid.com (英語コミュニティ)http //www.slatedroid.com/forum/366-onda-vi40-dual-core/ ファームウェア 公式ファームウェア ソース http //onda.cn/Tablet/ProductInfo.aspx?ProductId=207 d=down Vi40双核版_v1.0-0627528 シリアルがV1系のみ。 ダウンロード http //file2.mydrivers.com/ondata/Temp/Vi40D_V1-v1.0-0627528.rar Vi40双核版_v1.0-0627528 シリアルがV2系のみ。 ダウンロード http //file2.mydrivers.com/ondata/Temp/Vi40D_V2-v1.0-0627528.rar 外部リンク [新製品]ONDA Vi40 双核版 (2012年7月7日)http //akiba-pc.watch.impress.co.jp/hotline/20120707/ni_cvi40dual.html 中国語サイト http //bbs.imp3.net/thread-10699046-1-1.html コメント 該当機種の簡単なレビューやクチコミ掲示板です。 トラブルの相談はなるべく詳細に症状を伝えれば回答が得られやすいかもしれません。 最新投稿20件が表示されます。過去ログは こちら から。 名前 マーケット導入方法が解りません。どなたか教えていただけませんか? - かおちゃん 2012-08-25 22 22 47 最終更新 2014/06/04 14 12 52 タグ 1024x768 2012Q2 9.7インチ Amlogic8726-M6 Android 4.0 IPS onda デュアルコア メモリ1GB 端末
https://w.atwiki.jp/create_tokyotech/pages/52.html
Cansat班進捗(2月13日現在) Cansat班PMのたなかです。 木曜日にCansat班の定例会議を行いました。 現在Cansat「G-sat2」の制作状況は以下の通りです。 EM 親機⇒完成度70% 自由落下機⇒完成度100% FM 親機⇒完成度10% 自由落下機⇒完成度60% ↓G-sat2ってなに!?って人はこちらをご覧ください。↓ G-sat2紹介資料(PDF) 現在親機は分離機構の再設計 制作、自由落下機はEMの制作を完了してFMの制作を行っています。 先週は大学の定期試験があったために大きな進捗はありませんでした。 打ち上げまであと1カ月と1週間! 以下は各系ごとの進捗報告です。 自由落下機全体構造系 制作内容 自由落下機の空力設計、自由落下機の躯体制作 進捗状況 EMの制作完了 FMの制作中 パラシュート放出試験を実施 直近の活動予定 カイトプレーン投下試験準備 自由落下機電池ボックスリアクションホイール制作 制作内容 自由落下機の電源部およびリアクションホイールのハードウェア制作 進捗状況 電池ボックスの改良中 直近の活動予定 電池ボックス改良 自由落下機電装系 制作内容 自由落下機の通信・センサ・メモリー関連の回路・プログラム作成 進捗状況 FMの制作中 基板7枚中7枚制作終了 メモリー拡張用プログラム制作は打ち切り 直近の活動予定 プログラムの改良 自由落下機リアクションホイール制御系 制作内容 自由落下機のリアクションホイール制御回路・プログラム作成 進捗状況 FM基板によるリアクションホイール動作確認終了 直近の活動予定 姿勢制御用プログラム作成 親機構造系 制作内容 親機の全体構造、親機―自由落下機の分離機構 進捗状況 構造制作完了 直近の活動予定 分離機構再設計 分離再試験 パラシュート投下試験 親機電装系 制作内容 親機の電装機器の回路設計・プログラム作成 進捗状況 EM基板制作中 -親機搭載カメラの回路製作 -親機搭載の通信機の制作・動作実験中(@SOMESAT) 直近の活動予定 EM基板完成 Cansat班PM 自由落下機電装 たなか
https://w.atwiki.jp/novo/pages/100.html
ユーザーレビュー 選択肢 投票数 投票 ★★★★★ 0 ★★★★☆ 0 ★★★☆☆ 0 ★★☆☆☆ 1 ★☆☆☆☆ 0 CHUWI V80 Amlogic8726-M6 デュアルコア、8インチ 1024×768ドット IPS液晶、金属製の筐体にデュアルカメラを搭載したタブレットです。 公式製品紹介 http //www.chuwi.com/product/mid/show_47.html スペック モデル名 CHUWI V80 CPU ARM Cortex-A9、Amlogic8726-M6 デュアルコア 1.5GHz GPU Mali-400 MP2 OS Android 4.0 (ICS) RAM 1GB DDR3 NAND 16GB シェル素材 アルミニウム合金 液晶 8インチ 1024×768ドット IPSパネル、静電式 最大5点 マルチタッチ、ガラス GPS なし Bluetooth なし カメラ 前面30万画素、背面200万画素 Gセンサ 搭載 Video 1080P Wi-Fi 802.11 b/g/n 3G なし バッテリ 4000mAh、約5時間 サイズ 206(W)×159(H)×10.5(D)mm 重量 420g 外部端子 MicroUSB (OTG)、MiniHDMI、DC-IN、microSDスロット、3.5mmイヤフォンジャック 付属品 USBケーブル、OTGケーブル、取扱説明書 外部サイトレビュー 中国語サイト 新製品ニュース、16GB 899元 ソース http //bbs.imp3.net/thread-10708028-1-1.html ソース http //www.imp3.net/10/show.php?itemid=33587 レビュー ソース http //bbs.imp3.net/thread-10723354-1-1.html コメント 該当機種の簡単なレビューやクチコミ掲示板です。 トラブルの相談はなるべく詳細に症状を伝えれば回答が得られやすいかもしれません。 最新投稿20件が表示されます。過去ログは こちら から。 名前 最終更新 2012/07/25 18 52 46 タグ 1024x768 2012Q3 8インチ Amlogic8726-M6 Android 4.0 IPS chuwi デュアルコア メモリ1GB 端末
https://w.atwiki.jp/vocaloidenglishlyric/pages/228.html
【Tags E Gumi buzzG tE A】 Original Music Title アイセンサー Eye Sensor (Ai Sensaa) Music Lyrics written, Voice edited by buzzG Music arranged by buzzG Singer Gumi(Megpoid) Extend Power Click here for the Japanese Lyrics English Lyrics (translated by blacksaingrain): A long journey started to roll I recall you "I don’t know the temperature of the heart" Time just went by without knowing it No way, no way That’s a flame that no one wants I yearn so much that I can’t even shed tears I can’t be you What can be seen at the place where the released hand goes? The voice is trembling Everything broke and burnt out Even civilizations and written records turned to ashes No way, no way That’s a world that no one wants As it came off, I just knew an unknown pain It runs down my life Black rains, red rivers No one wants to see such a future, right? I didn’t want to see I yearn so much that I can’t even shed tears I’m pretending to be tough My mind is full of tears now The tears well up in my eyes that are not supposed to have water I don’t care about whatever it means Till the future we wanted Romaji lyrics (transliterated by blacksaingrain): korogaridashita nagai tabi anata no koto omoidasu "kokoro no onndo wo shiranaino" shiranai mama de toki dake ga sugi No way No way sore wa dare mo nozomanai honoo kogare namida nanka denai yo watashi wa anata niwa narenai no toita te no ikisaki de nani wo miru no koe ga furueteru subete kowarete moetsukita bunnmei mo moji mo hai ni natta No way No way sore wa dare mo nozomanai sekai hagare obaeta bakari no shiranai itami inochi wo tsutau no kuroi ame akai kawa konna mirai wo mitaku wa nai desho mitakunakatta no kogare namida nanka denai yo tsuyogari kokoro wa ima naiteru no namida nannka deru hazu no nai hitomi kara afuredeta sono imi nante nandemo ii no watashitachi ga nozonda mirai made
https://w.atwiki.jp/angle_kyushu/pages/27.html
第2回 SOFT九州支部学生部会 研究発表会当日のスケジュール 研究発表会当日のスケジュールは以下のとおりです. 時間 内容 10 30- 受付開始 11 00-12 20 午前の部 論文講演(4件)- 座長:石川秀大(九州工業大学) 12 20-13 30 昼休憩 13 30-14 20 招待講演- 司会:和久屋寛(佐賀大学) 14 30-15 30 午後の部 論文講演(3件)- 座長:石川秀大(九州工業大学) 15 40-17 30 学生部会 ミーティング 17 30- 懇親会(移動時間含) 講演プログラム 研究発表会当日の講演プログラムは以下のとおりです. 講演番号 時間 題目 著者 所属 A101 11 00-11 20 顔姿勢推定を用いた動画像における顔美化のためのリアルタイム顔装飾 ○ 張舸帆,生駒哲一,河野英昭,前田博 九州工業大学 A102 11 20-11 40 分業巡回セールスマン問題を用いた仮想磁場漸弱法の有効性の検討 ○井上太一,和久屋寛,伊藤秀昭,福本尚生,古川達也 佐賀大学 A103 11 40-12 00 Android 携帯端末への連想記憶モデル実装の試み ○石原洋樹,和久屋寛,伊藤秀昭,福本尚生,古川達也 佐賀大学 A104 12 00-12 20 強化学習における状態の構造決定アルゴリズム ○岩崎健児,宮島廣美,重井徳貴 鹿児島大学 12 20-13 30 昼休み 招待講演 13 30-14 20 大学院生としての心得~SOFTから一般企業へ~ ○松田充史 富士通ソーシアルサイエンスラボラトリ 14 20-14 30 休憩 A201 14 30-14 50 モバイルノードを用いたセンサネットワークの通信の省電力化 ○松元一斗,重井徳貴,宮島廣美 鹿児島大学 A202 14 50-15 10 複数センサの移動所要時間ネットワーク構造による広域動体追跡 ○宮田太郎,生駒哲一,河野英昭,前田博 九州工業大学 A203 15 10-15 30 マイクロ波ドップラセンサ信号に基づく運転者の足状態の判定と安全運転支援への応用 ○北島一樹,生駒哲一,河野英昭,前田博 九州工業大学 15 30-15 40 休憩/会場準備 15 40-17 30 学生部会 ミーティング 司会:石川秀大 17 30- 懇親会 講演者の方へ ■ 講演発表はPCプロジェクタを用いて行います. ■ 講演発表で使用するパソコンは各自ご持参下さい. ■ 各講演時間は1件20分(発表10分,質疑10分)です. <ベルの鳴り方> 第1ベル(ベル1回) 8分(講演残り時間2分の案内) 第2ベル(ベル2回) 10分(発表終了) 第3ベル(ベル3回) 20分(質疑応答の終了) なお,研究発表会後にはミーティングを行います. ミーティングでは, ■ 今年度の学生部会の活動の反省 ■ 今後の学生部会の活動について などを話し合いたいと考えています. 懇親会は希望者のみ参加とし,費用は実費負担とさせていただきます. ■ 懇親会会場:天神御膳屋 ■ 懇親会費:1人 4000円(飲み放題・コース料理) 学生部会 懇親会に参加される方は 発表会当日,受付にてお支払い下さい. その他に何かご不明な点がございましたら, 問い合わせ先までご連絡ください. 問い合わせ先:ishikawa-shudai<@>edu.brain.kyutech.ac.jp
https://w.atwiki.jp/fureisann/pages/256.html
https://w.atwiki.jp/eq_311/pages/36.html
PIN フォトダイオードによるガンマ線検出回路 (1) - シンセ・アンプラグド 2013/5/29 2 00 PINダイオードによるγ線エネルギースペクトル検出 2013/5/29 2 10 PINフォトダイオードによる放射線測定予備実験その2 | まのたんの実験室 2013/5/29 2 15 PINフォトダイオード使用簡易放射線量モニターキット 測定器・計測器関連 秋月電子通商 電子部品 ネット通販 2013/5/29 2 23 PDF 半導体放射線検出器 (ガンマ線検出器) 半導体(PINフォトダイオード)を使用したガイガーカウンターの製作 その1 暫定ぶろぐぺーじ/ウェブリブログ 2013/5/29 2 33
https://w.atwiki.jp/kt108stars/pages/1539.html
610 名前: NPCさん 2006/03/20(月) 17 24 53 ID ??? ダブルクロスをやった時のこと。PC1担当のPLが、覚醒表で「死んだ事でオーヴァードになった」というのを振りました。 本人が「カッコイイ!」というので、相談の上「普通の人スタートで、OP辺りで死んで覚醒」という段取りを打ち合わせるGMとPL1。他のメンバーは、それをのんびりと聞き流しながらキャラメイクをして、昼食後にセッション開始。 各PCのOPがさくさく進み、PC1のOP。 何気なくも「何ソレ、どこのギャルゲ?」なOPが展開され、ヒロインを狙って現れたジャームからの攻撃を庇って… PL1「えっと、そのダメージだと僕のPC死んじゃいません?」 GM「でも庇わないと、ヒロインは即死だよ?」 一同、ここは庇って死ぬシーンだよなぁ…って空気が流れる。チルドレンのPCなんか、「しまった、一足遅かったか!」と登場するべく、ダイス片手にワクテカしてる。 PC1「ええ、もう分かりましたよっ!ハイ、庇いました。死にましたっ!! これで満足かよっ、このクS…(怒りの余り、言葉にならない)」 ガタンと荒々しく立ち上がって、回りの物を乱暴に片付けて帰り支度を始めるPL1の人。 PL3「あ…あのさぁ、キャラメイクの時に打ち合わせてなかった?一回死ぬって」(おそるおそる) PL1「…え?( ゜Д゜)」 ここでチルドレンが機転を効かせて、ムリヤリ登場。 「ああっ、遅かったか! くうっ、ジャームめヒロインを離せっ」 そのままなし崩しにセッション再開。PL1も再度座らせて、力技で進行させました。 …いや、次のシーンでPL1を宥めるのは、支部長PCの俺の仕事だったんですが。orz セッション前の設定忘れた当人に激怒されるのって、結構クるねー 613 名前: 610 2006/03/20(月) 17 39 28 ID ??? 「ダブルクロスには不慣れなもので、迷惑をかけて…」という謝罪のような物なら聞けた。 スレ93